Chào mừng bạn đến với Bài học 7, nơi chúng tôi giới thiệu Học truyền tải. Kỹ thuật này bao gồm việc tái sử dụng một mô hình học sâu đã được huấn luyện trên một tập dữ liệu khổng lồ và tổng quát (như ImageNet) và điều chỉnh nó để giải quyết một nhiệm vụ mới, cụ thể hơn (ví dụ như thách thức FoodVision của chúng ta). Đây là yếu tố then chốt để đạt được kết quả tiên tiến nhất một cách hiệu quả, đặc biệt khi các tập dữ liệu có nhãn bị giới hạn.
1. Sức mạnh của trọng số đã được huấn luyện trước
Các mạng nơ-ron sâu học các đặc trưng theo thứ bậc. Các lớp thấp học các khái niệm cơ bản (cạnh, góc, họa tiết), trong khi các lớp sâu hơn kết hợp chúng thành các khái niệm phức tạp hơn (đôi mắt, bánh xe, các đối tượng cụ thể). Điểm mấu chốt là các đặc trưng cơ bản được học từ sớm là phổ biến và áp dụng được rộng rãi trên hầu hết các lĩnh vực thị giác.
Các thành phần của Học truyền tải
- Nhiệm vụ nguồn: Huấn luyện trên 14 triệu ảnh và 1000 danh mục (ví dụ: ImageNet).
- Nhiệm vụ đích: Điều chỉnh trọng số để phân loại một tập dữ liệu nhỏ hơn nhiều (ví dụ: các lớp thực phẩm cụ thể của chúng ta trong FoodVision).
- Thành phần tận dụng: Hầu hết các tham số của mạng lưới—các lớp trích xuất đặc trưng—được tái sử dụng trực tiếp.
Run code to inspect active tensors
The Input Feature size must match the output of the frozen base layer.
Size: 512.
The output size of 512 is the input, and the class count 7 is the output.
Code:
new_layer = torch.nn.Linear(512, 7)The Output Feature size must match the number of target classes.
Size: 7.